home *** CD-ROM | disk | FTP | other *** search
/ Ian & Stuart's Australian Mac: Not for Sale / Another.not.for.sale (Australia).iso / fade into you / being there / How To & FAQ's / mbone.faq < prev    next >
Text File  |  1994-09-29  |  37KB  |  695 lines

  1.  
  2.       FREQUENTLY ASKED QUESTIONS (FAQ) ON THE MULTICAST BACKBONE (MBONE)
  3.                                        
  4.    
  5.      _________________________________________________________________
  6.    
  7. How to obtain this file
  8.  
  9.    This file is venera.isi.edu:mbone/faq.txt; Corrections and Additions
  10.    Requested.
  11.    
  12. Overview
  13.  
  14.      * What is the MBONE?
  15.      * How do IP multicast tunnels work?
  16.      * What is the topology of the MBONE?
  17.      * How is the MBONE topology going to be set up and coordinated?
  18.      * What is the anticipated traffic level?
  19.      * Why should I (a network provider) participate?
  20.      * What technical facilities and equipment are required for a network
  21.        provider to join the MBONE? 
  22.      * What skills are needed to participate and how much time might have
  23.        to be devoted to this?
  24.      * Which workstation platforms can support the mrouted program?
  25.      * Where can I get the IP multicast software and mrouted program?
  26.      * What documentation is available?
  27.      * Where can I get a map of the MBONE?
  28.      * What is DVMRP?
  29.      * What is MOSPF?
  30.      * Can MOSPF and DVMRP interoperate?
  31.      * How do I join the MBONE?
  32.      * How is a tunnel configured?
  33.      * Are there security risks?
  34.      * What hardware and software is required to receive audio?
  35.      * What hardware and software is required to receive video?
  36.      * How can I find out about teleconference events?
  37.      * Have there been any movements towards productizing any of this?
  38.        
  39. What is the MBONE?
  40.  
  41.    The MBONE is an outgrowth of the first two IETF "audiocast"
  42.    experiments in which live audio and video were multicast from the IETF
  43.    meeting site to destinations around the world. The idea is to
  44.    construct a semi-permanent IP multicast testbed to carry the IETF
  45.    transmissions and support continued experimentation between meetings.
  46.    This is a cooperative, volunteer effort.
  47.    
  48.    The MBONE is a virtual network. It is layered on top of portions of
  49.    the physical Internet to support routing of IP multicast packets since
  50.    that function has not yet been integrated into many production
  51.    routers. The network is composed of islands that can directly support
  52.    IP multicast, such as multicast LANs like Ethernet, linked by virtual
  53.    point-to-point links called "tunnels". The tunnel endpoints are
  54.    typically workstation-class machines having operating system support
  55.    for IP multicast and running the "mrouted" multicast routing daemon.
  56.    
  57. How do IP multicast tunnels work?
  58.  
  59.    IP multicast packets are encapsulated for transmission through
  60.    tunnels, so that they look like normal unicast datagrams to
  61.    intervening routers and subnets. A multicast router that wants to send
  62.    a multicast packet across a tunnel will prepend another IP header, set
  63.    the destination address in the new header to be the unicast address of
  64.    the multicast router at the other end of the tunnel, and set the IP
  65.    protocol field in the new header to be 4 (which means the next
  66.    protocol is IP). The multicast router at the other end of the tunnel
  67.    receives the packet, strips off the encapsulating IP header, and
  68.    forwards the packet as appropriate.
  69.    
  70.    Previous versions of the IP multicast software (before March 1993)
  71.    used a different method of encapsulation based on an IP Loose Source
  72.    and Record Route option. This method remains an option in the new
  73.    software for backward compatibility with nodes that have not been
  74.    upgraded. In this mode, the multicast router modifies the packet by
  75.    appending an IP LSRR option to the packet's IP header. The multicast
  76.    destination address is moved into the source route, and the unicast
  77.    address of the router at the far end of the tunnel is placed in the IP
  78.    Destination Address field. The presence of IP options, including LSRR,
  79.    may cause modern router hardware to divert the tunnel packets through
  80.    a slower software processing path, causing poor performance.
  81.    Therefore, use of the new software and the IP encapsulation method is
  82.    strongly encouraged.
  83.    
  84. What is the topology of the MBONE?
  85.  
  86.    We anticipate that within a continent, the MBONE topology will be a
  87.    combination of mesh and star: the backbone and regional (or mid-level)
  88.    networks will be linked by a mesh of tunnels among mrouted machines
  89.    located primarily at interconnection points of the backbones and
  90.    regionals. Some redundant tunnels may be configured with higher
  91.    metrics for robustness. Then each regional network will have a star
  92.    hierarchy hanging off its node of the mesh to fan out and connect to
  93.    all the customer networks that want to participate.
  94.    
  95.    Between continents there will probably be only one or two tunnels,
  96.    preferably terminating at the closest point on the MBONE mesh. In the
  97.    US, this may be on the Ethernets at the two FIXes (Federal Internet
  98.    eXchanges) in California and Maryland. But since the FIXes are fairly
  99.    busy, it will be important to minimize the number of tunnels that
  100.    cross them. This may be accomplished using IP multicast directly
  101.    (rather than tunnels) to connect several multicast routers on the FIX
  102.    Ethernet.
  103.    
  104. How is the MBONE topology going to be set up and coordinated?
  105.  
  106.    The primary reason we set up the MBONE e-mail lists (see below) was to
  107.    coordinate the top levels of the topology (the mesh of links among the
  108.    backbones and regionals). This must be a cooperative project combining
  109.    knowledge distributed among the participants, somewhat like Usenet.
  110.    The goal is to avoid loading any one individual with the
  111.    responsibility of designing and managing the whole topology, though
  112.    perhaps it will be necessary to periodically review the topology to
  113.    see if corrections are required.
  114.    
  115.    The intent is that when a new regional network wants to join in, they
  116.    will make a request on the appropriate MBONE list, then the
  117.    participants at "close" nodes will answer and cooperate in setting up
  118.    the ends of the appropriate tunnels. To keep fanout down, sometimes
  119.    this will mean breaking an existing tunnel to inserting a new node, so
  120.    three sites will have to work together to set up the tunnels.
  121.    
  122.    To know which nodes are "close" will require knowledge of both the
  123.    MBONE logical map and the underlying physical network topology, for
  124.    example, the physical T3 NSFnet backbone topology map combined with
  125.    the network providers' own knowledge of their local topology.
  126.    
  127.    Within a regional network, the network's own staff can independently
  128.    manage the tunnel fanout hierarchy in conjunction with end-user
  129.    participants. New end-user networks should contact the network
  130.    provider directly, rather than the MBONE list, to get connected.
  131.    
  132. What is the anticipated traffic level?
  133.  
  134.    The traffic anticipated during IETF multicasts is 100-300 kbit/s, so
  135.    500 kb/s seems like a reasonable design bandwidth. Between IETF
  136.    meetings, most of the time there will probably be no audio or video
  137.    traffic, though some of the background session/control traffic may be
  138.    present. A guess at the peak level of experimental use might be 5
  139.    simultaneous voice conversations (64 kb/s each). Clearly, with enough
  140.    simultaneous conversations, we could exceed any bandwidth number, but
  141.    500 kb/s seems reasonable for planning.
  142.    
  143.    Typically, audio is carried at 32 or 64 kb/s, video at up to 128 kb/s.
  144.    Other services such as imm and sd need very small amounts of
  145.    bandwidth.
  146.    
  147.    Note that the design bandwidth must be multiplied by the number of
  148.    tunnels passing over any given link since each tunnel carries a
  149.    separate copy of each packet. This is why the fanout of each mrouted
  150.    node should be no more than 5-10 and the topology should be designed
  151.    so that at most 1 or 2 tunnels flow over any T1 line.
  152.    
  153.    While most MBONE nodes should connect with lines of at least T1 speed,
  154.    it will be possible to carry restricted traffic over slower speed
  155.    lines. Each tunnel has an associated threshold against which the
  156.    packet's IP time-to-live (TTL) value is compared. By convention in the
  157.    IETF multicasts, higher bandwidth sources such as video transmit with
  158.    a smaller TTL so they can be blocked while lower bandwidth sources
  159.    such as compressed audio are allowed through.
  160.    
  161. Why should I (a network provider) participate?
  162.  
  163.    To allow your customers to participate in IETF audiocasts and other
  164.    experiments in packet audio/video, and to gain experience with IP
  165.    multicasting for a relatively low cost.
  166.    
  167. What technical facilities and equipment are required for a network provider to
  168. join the MBONE?
  169.  
  170.    Each network-provider participant in the MBONE provides one or more IP
  171.    multicast routers to connect with tunnels to other participants and to
  172.    customers. The multicast routers are typically separate from a
  173.    network's production routers since most production routers don't yet
  174.    support IP multicast. Most sites use workstations running the mrouted
  175.    program, but the experimental MOSPF software for Proteon routers is an
  176.    alternative (see MOSPF question below). It is best if the workstations
  177.    can be dedicated to the multicast routing function to avoid
  178.    interference from other activities and so there will be no qualms
  179.    about installing kernel patches or new code releases on short notice.
  180.    Since most MBONE nodes other than endpoints will have at least three
  181.    tunnels, and each tunnel carries a separate (unicast) copy of each
  182.    packet, it is also useful, though not required, to have multiple
  183.    network interfaces on the workstation so it can be installed parallel
  184.    to the unicast router for those sites with configurations like this:
  185.  
  186.                    +----------+
  187.                    | Backbone |
  188.                    |   Node   |
  189.                    +----------+
  190.                         |
  191.     ------------------------------------------ External DMZ Ethernet
  192.              |               |
  193.         +----------+    +----------+
  194.         |  Router  |    |  mrouted |
  195.         +----------+    +----------+
  196.              |               |
  197.     ------------------------------------------ Internal DMZ Ethernet
  198.  
  199.    (The "DMZ" Ethernets borrow that military term to describe their role
  200.    as interface points between networks and machines controlled by
  201.    different entities.) This configuration allows the mrouted machine to
  202.    connect with tunnels to other regional networks over the external DMZ
  203.    and the physical backbone network, and connect with tunnels to the
  204.    lower-level mrouted machines over the internal DMZ, thereby splitting
  205.    the load of the replicated packets. (The mrouted machine would not do
  206.    any unicast forwarding.) Note that end-user sites may participate with
  207.    as little as one workstation that runs the packet audio and video
  208.    software and has a tunnel to a network-provider node.
  209.    
  210. What skills are needed to participate and how much time might have to be
  211. devoted to this?
  212.  
  213.    The person supporting a network's participation in the MBONE should
  214.    have the skills of a network engineer, but a fairly small percentage
  215.    of that person's time should be required. Activities requiring this
  216.    skill level would be choosing a topology for multicast distribution
  217.    with in the provider's network and analyzing traffic flow when
  218.    performance problems are identified.
  219.    
  220.    To set up and run an mrouted machine will require the knowledge to
  221.    build and install operating system kernels. If you would like to use a
  222.    hardware platform other than those currently supported, then you might
  223.    also contribute some software implementation skills!
  224.    
  225.    We will depend on participants to read mail on the appropriate mbone
  226.    mailing list and respond to requests from new networks that want to
  227.    join and are "nearby" to coordinate the installation of new tunnel
  228.    links. Similarly, when customers of the network provider make requests
  229.    for their campus nets or end systems to be connected to the MBONE, new
  230.    tunnel links will need to be added from the network provider's
  231.    multicast routers to the end systems (unless the whole network runs
  232.    MOSPF).
  233.    
  234.    Part of the resources that should be committed to participate would be
  235.    for operations staff to be aware of the role of the multicast routers
  236.    and the nature of multicast traffic, and to be prepared to disable
  237.    multicast forwarding if excessive traffic is found to be causing
  238.    trouble. The potential problem is that any site hooked into the MBONE
  239.    could transmit packets that cover the whole MBONE, so if it became
  240.    popular as a "chat line", all available bandwidth could be consumed.
  241.    Steve Deering plans to implement multicast route pruning so that
  242.    packets only flow over those links necessary to reach active
  243.    receivers; this will reduce the traffic level. This problem should be
  244.    manageable through the same measures we already depend upon for stable
  245.    operation of the Internet, but MBONE participants should be aware of
  246.    it.
  247.    
  248. Which workstation platforms can support the mrouted program?
  249.  
  250.    The most convenient platform is a Sun SPARCstation simply because that
  251.    is the machine used for mrouted development. An older machine (such as
  252.    a SPARC-1 or IPC) will provide satisfactory performance as long as the
  253.    tunnel fanout is kept in the 5-10 range. The platforms for which
  254.    software is available:
  255.  
  256.     Machines             Operating Systems       Network Interfaces
  257.     --------             -----------------       ------------------
  258.     Sun SPARC            SunOS 4.1.1,2,3         ie, le, lo
  259.     Vax or Microvax      4.3+ or 4.3-tahoe       de, qe, lo
  260.     Decstation 3100,5000 Ultrix 3.1c, 4.1, 4.2a  ln, se, lo
  261.     Silicon Graphics     All ship with multicast
  262.  
  263.    There is an interested group at DEC that may get the software running
  264.    on newer DEC systems with Ultrix and OSF/1. Also, some people have
  265.    asked about support for the RS-6000 and AIX or other platforms. Those
  266.    interested could use the mbone list to coordinate collaboration on
  267.    porting the software to these platforms!
  268.    
  269.    An alternative to running mrouted is to run the experimental MOSPF
  270.    software in a Proteon router (see MOSPF question below).
  271.    
  272. Where can I get the IP multicast software and mrouted program?
  273.  
  274.    The IP multicast software is available by anonymous FTP from the
  275.    vmtp-ip directory on host gregorio.stanford.edu. Here's a snapshot of
  276.    the files:
  277.  
  278.         ipmulti-pmax31c.tar
  279.         ipmulti-sunos41x.tar.Z      Binaries & patches for SunOS 4.1.1,2,3
  280.         ipmulticast-ultrix4.1.patch
  281.         ipmulticast-ultrix4.2a-binary.tar
  282.         ipmulticast-ultrix4.2a.patch
  283.         ipmulticast.README          [** Warning: out of date **]
  284.         ipmulticast.tar.Z           Sources for BSD
  285.  
  286.    You don't need kernel sources to add multicast support. Included in
  287.    the distributions are files (sources or binaries, depending upon the
  288.    system) to modify your BSD, SunOS, or Ultrix kernel to support IP
  289.    multicast, including the mrouted program and special multicast
  290.    versions of ping and netstat.
  291.    
  292.    Silicon Graphics includes IP multicast as a standard part of their
  293.    operating system. The mrouted executable and ip_mroute kernel module
  294.    are not installed by default; you must install the eoe2.sw.ipgate
  295.    subsystem and "autoconfig" the kernel to be able to act as a multicast
  296.    router. In the IRIX 4.0.x release, there is a bug in the kernel code
  297.    that handles multicast tunnels; an unsupported fix is available via
  298.    anonymous ftp from sgi.com in the sgi/ipmcast directory. See the
  299.    README there for details on installing it.
  300.    
  301.    IP multicast is also included in Sun's Solaris 2.1 and in BSD 4.4
  302.    when/if it is released.
  303.    
  304.    The most common problem encountered when running this software is with
  305.    hosts that respond incorrectly to IP multicasts. These responses
  306.    typically take the form of ICMP network unreachable, redirect, or
  307.    time-exceeded error messages, which are a nuisance but mostly harmless
  308.    until we get several such hosts each sending a packet in response to
  309.    50 packets per second of packet audio. These responses are in
  310.    violation of the current IP specification and, with luck, will
  311.    disappear over time.
  312.    
  313. What documentation is available?
  314.  
  315.    Documentation on the IP multicast software is included in the
  316.    distribution on gregorio.stanford.edu, such as the README file. A more
  317.    up-to-date version is here. RFC1112 specifies the "Host Extensions for
  318.    IP Multicasting".
  319.    
  320.    Multicast routing algorithms are described in the paper "Multicast
  321.    Routing in Internetworks and Extended LANs" by S. Deering, in the
  322.    Proceedings of the ACM SIGCOMM '88 Conference. His dissertation
  323.    Multicast Routing in a Datagram Network is available: Part 1, Part
  324.    2, Part 3.
  325.    
  326.    There is an article in the June 1992 ConneXions about the first IETF
  327.    audiocast from San Diego, and a later version of that article is in
  328.    the July 1992 ACM SIGCOMM CCR. A reprint of the latter article is
  329.    available by anonymous FTP. There is no article yet about later IETF
  330.    audio/videocasts.
  331.    
  332. Where can I get a map of the MBONE?
  333.  
  334.    A small and large map are available. The small one fits on one page
  335.    and the big one is four pages that have to be taped together for
  336.    viewing. This map is produces from topology information collected
  337.    automatically from all MBONE nodes running the up-to-date released of
  338.    the mrouted program (some are not yet updated so links beyond them
  339.    cannot be seen). Pavel Curtis at Xerox PARC has added the mechanisms
  340.    to automatically collect the map data and produce the map. (Thanks
  341.    also to Paul Zawada of NCSA who manually produced an earlier map of
  342.    the MBONE.)
  343.    
  344. What is DVMRP?
  345.  
  346.    DVMRP is the Distance Vector Multicast Routing Protocol; it is the
  347.    routing protocol implemented by the mrouted program. An earlier
  348.    version of DVMRP is specified in RFC-1075. However, the version
  349.    implemented in mrouted is quite a bit different from what is specified
  350.    in that RFC (different packet format, different tunnel format,
  351.    additional packet types, and more). It maintains topological knowledge
  352.    via a distance-vector routing protocol (like RIP, described in
  353.    RFC-1058), upon which it implements a multicast forwarding algorithm
  354.    called Truncated Reverse Path Broadcasting. DVMRP suffers from the
  355.    well-known scaling problems of any distance-vector routing protocol.
  356.    
  357. What is MOSPF?
  358.  
  359.    MOSPF is the IP multicast extension to the OSPF routing protocol,
  360.    currently an Internet Draft. John Moy has implemented MOSPF for the
  361.    Proteon router. A network of routers running MOSPF can forward IP
  362.    multicast packets directly, sending no more than one copy over any
  363.    link, and without the need for any tunnels. This is how IP
  364.    multicasting within a domain is supposed to work.
  365.    
  366. Can MOSPF and DVMRP interoperate?
  367.  
  368.    At the Boston IETF, John Moy agreed to add support for DVMRP to his
  369.    MOSPF implementation. He hopes to have this completed "well in advance
  370.    of the next IETF". When it is finished, you will be able to set up a
  371.    DVMRP tunnel from an mrouted to Proteon a router, glueing together the
  372.    DVMRP with MOSPF domains (the MOSPF domains will look pretty like
  373.    ethernets to the multicast topology).
  374.    
  375.    The advantages to linking DVMRP with MOSPF are: fewer configured
  376.    tunnels, and less multicast traffic on the links inside the MOSPF
  377.    domain. There are also a couple potential drawbacks: increasing the
  378.    size of DVMRP routing messages, and increasing the number of external
  379.    routes in the OSPF systems. However, it should be possible to
  380.    alleviated these drawbacks by configuring area address ranges and by
  381.    judicious use of MOSPF default routing.
  382.    
  383. How do I join the MBONE?
  384.  
  385.     1. If you are an end-user site (e.g., a campus), please contact your
  386.        network provider. If your network provider is not participating in
  387.        the MBONE, you can arrange to connect to some nearby point that is
  388.        on the MBONE, but it is far better to encourage your network
  389.        provider to participate to avoid overloading links with duplicate
  390.        tunnels to separate end nodes. Below is a list of some network
  391.        providers who are participating in the MBONE, but this list is
  392.        likely not to be complete.
  393.  
  394.         AlterNet        ops@uunet.uu.net
  395.         CERFnet         mbone@cerf.net
  396.         CICNet          mbone@cic.net
  397.         CONCERT         mbone@concert.net
  398.         Cornell         swb@nr-tech.cit.cornell.edu
  399.         JvNCnet         multicast@jvnc.net
  400.         Los Nettos      prue@isi.edu
  401.         NCAR            mbone@ncar.ucar.edu
  402.         NCSAnet         mbone@cic.net
  403.         NEARnet         nearnet-eng@nic.near.net
  404.         OARnet          oarnet-mbone@oar.net
  405.         PSCnet          pscnet-admin@psc.edu
  406.         PSInet          mbone@nisc.psi.net
  407.         SESQUINET       sesqui-tech@sesqui.net
  408.         SDSCnet         mbone@sdsc.edu
  409.         SURAnet         multicast@sura.net
  410.         UNINETT         mbone-no@uninett.no
  411.    If you are a network povider, send a message to the -request address
  412.        of the mailing list for your region to be added to that list for
  413.        purposes of coordinating setup of tunnels, etc:
  414.  
  415.         mbone-eu:    mbone-eu-request@sics.se               Europe
  416.         mbone-jp:    mbone-jp-request@wide.ad.jp            Japan
  417.         mbone-korea: mbone-korea-request@cosmos.kaist.ac.kr Korea
  418.         mbone-na:    mbone-na-request@isi.edu               North America
  419.         mbone-oz:    mbone-oz-request@internode.com.au      Australia
  420.         mbone:       mbone-request@isi.edu                  other
  421.    These lists are primarily aimed at network providers who would be the
  422.        top level of the MBONE organizational and topological hierarchy.
  423.        The mailing list is also a hierarchy; mbone@isi.edu forwards to
  424.        the regional lists, then those lists include expanders for network
  425.        providers and other institutions. Mail of general interest should
  426.        be sent to mbone@isi.edu, while regional topology questions should
  427.        be sent to the appropriate regional list.
  428.        
  429.        Individual networks may also want to set up their own lists for
  430.        their customers to request connection of campus mrouted machines
  431.        to the network's mrouted machines. Some that have done so were
  432.        listed above.
  433.     2. Set up an mrouted machine, build a kernel with IP multicast
  434.        extensions added, and install the kernel and mrouted; or, install
  435.        MOSPF software in a Proteon router.
  436.     3. Send a message to the mbone list for your region asking to hook
  437.        in, then coordinate with existing nodes to join the tunnel
  438.        topology.
  439.        
  440. How is a tunnel configured?
  441.  
  442.    Mrouted automatically configures itself to forward on all
  443.    multicast-capable interfaces, i.e. interfaces that have the
  444.    IFF_MULTICAST flag set (excluding the loopback "interface"), and it
  445.    finds other mrouteds directly reachable via those interfaces. To
  446.    override the default configuration, or to add tunnel links to other
  447.    mrouteds, configuration commands may be placed in /etc/mrouted.conf.
  448.    There are two types of configuration command:
  449.  
  450.         phyint    [disable]   [metric ] [threshold ]
  451.  
  452.         tunnel   [metric ] [threshold ]
  453.  
  454.    The phyint command can be used to disable multicast routing on the
  455.    physical interface identified by local IP address , or to associate a
  456.    non-default metric or threshold with the specified physical interface.
  457.    Phyint commands should precede tunnel commands.
  458.    
  459.    The tunnel command can be used to establish a tunnel link between
  460.    local IP address and remote IP address , and to associate a
  461.    non-default metric or threshold with that tunnel. The tunnel must be
  462.    set up in the mrouted.conf files of both ends before it will be used.
  463.    The keyword "srcrt" can be added just before the keyword "metric" to
  464.    choose source routing for the tunnel if necessary because the other
  465.    end has not yet upgraded to use IP encapsulation. Upgrading is highly
  466.    encouraged. If the methods don't match at the two ends, the tunnel
  467.    will appear to be up according to mrouted typeouts, but no multicast
  468.    packets will flow.
  469.    
  470.    The metric is the "cost" associated with sending a datagram on the
  471.    given interface or tunnel; it may be used to influence the choice of
  472.    routes. The metric defaults to 1. Metrics should be kept as small as
  473.    possible, because mrouted cannot route along paths with a sum of
  474.    metrics greater than 31. When in doubt, the following metrics are
  475.    recommended:
  476.    
  477.    LAN, or tunnel across a single LAN: 1
  478.    any subtree with only one connection point: 1
  479.    serial link, or tunnel across a single serial link: 1
  480.    multi-hop tunnel: 2 or 3
  481.    backup tunnels: sum of metrics on primary path + 1
  482.    The threshold is the minimum IP time-to-live required for a multicast
  483.    datagram to be forwarded to the given interface or tunnel. It is used
  484.    to control the scope of multicast datagrams. (The TTL of forwarded
  485.    packets is only compared to the threshold, it is not decremented by
  486.    the threshold. Every multicast router decrements the TTL by 1.) The
  487.    default threshold is 1.
  488.    
  489.    Since the multicast routing protocol implemented by mrouted does not
  490.    yet prune the multicast delivery trees based on group membership (it
  491.    does something called "truncated broadcast", in which it prunes only
  492.    the leaf subnets off the broadcast trees), we instead use a kludge
  493.    known as "TTL thresholds" to prevent multicasts from traveling along
  494.    unwanted branches. This is NOT the way IP multicast is supposed to
  495.    work; MOSPF does it right, and mrouted will do it right some day.
  496.    
  497.    Before the November 1992 IETF we established the following thresholds.
  498.    The "TTL" column specifies the originating IP time-to-live value to be
  499.    used by each application. The "thresh" column specifies the mrouted
  500.    threshold required to permit passage of packets from the corresponding
  501.    application, as well as packets from all applications above it in the
  502.    table:
  503.  
  504.                                 TTL     thresh
  505.                                 ---     ------
  506. IETF chan 1 low-rate GSM audio  255     224
  507. IETF chan 2 low-rate GSM audio  223     192
  508. IETF chan 1 PCM audio           191     160
  509. IETF chan 2 PCM audio           159     128
  510. IETF chan 1 video               127      96
  511. IETF chan 2 video                95      64
  512. local event audio                63      32
  513. local event video                31       1
  514.  
  515.    It is suggested that a threshold of 128 be used initially, and then
  516.    raise it to 160 or 192 only if the 64 Kb/s voice is excessive (GSM
  517.    voice is about 18 Kb/s), or lower it to 64 to allow video to be
  518.    transmitted to the tunnel.
  519.    
  520.    Mrouted will not initiate execution if it has fewer than two enabled
  521.    vifs, where a vif (virtual interface) is either a physical
  522.    multicast-capable interface or a tunnel. It will log a warning if all
  523.    of its vifs are tunnels, based on the reasoning that such an mrouted
  524.    configuration would be better replaced by more direct tunnels (i.e.,
  525.    eliminate the middle man). However, to create a hierarchical fanout
  526.    for the MBONE, we will have mrouted configurations that consist only
  527.    of tunnels.
  528.    
  529.    Once you have edited the mrouted.conf file, you must run mrouted as
  530.    root. See ipmulticast.README for more information.
  531.    
  532. Are there security risks?
  533.  
  534.    Security risks depend on the application. Most MBONE applications
  535.    cannot be coaxed into writing to disk by arriving packets; they also
  536.    do not run set-uid. One possible exception might be the LBL
  537.    whiteboard, wb, since it contains a PostScript interpreter. As with
  538.    any network application, it is possible for users to pick up an
  539.    attractive-looking multicast application that acts as a Trojan horse
  540.    or virus. Currently, all MBONE applications use UDP. While only
  541.    machines that subscribe to a particular multicast address will receive
  542.    multicast packets, multicast is at the IP layer and thus all UDP
  543.    packets arriving with a given destination address will be accepted by
  544.    the kernel. As an example, a host receiving audio on port 3456 at a
  545.    certain multicast address will also unwittingly receive (possibly
  546.    malicious) NFS packets sent to the same multicast address and
  547.    different port. Thus, any filtering routers have to inspect the UDP
  548.    payload within the IP-over-IP packet for unwanted UDP ports or non-UDP
  549.    protocols. If a tunnel crosses a protection boundary, IGMP packets
  550.    (protocol 2) and IP-in-IP (protocol 4) traverse the tunnel. Since IGMP
  551.    is separate from regular routing, external users cannot influence the
  552.    internal routing of unicast packets. Sites that restrict incoming TCP
  553.    and UDP traffic should be aware that MBONE traffic, without any action
  554.    by internal users, may impose additional load on the network and thus
  555.    impair the working of the internal network until the appropriate
  556.    mrouted daemons are terminated.
  557.    
  558. What hardware and software is required to receive audio?
  559.  
  560.    The platform we've been primarily using is the Sun SPARCstation, but
  561.    also the SGI Indigo. You don't need any additional hardware (assuming
  562.    yours is new enough that it came with a microphone, else you have to
  563.    buy one). The audio coding is provided by the built-in 64 Kb/s audio
  564.    hardware plus software compression for reduced data rates (32 Kb/s
  565.    ADPCM, 13 Kb/s GSM, and 4.8 Kb/s LPC). The software for packet audio
  566.    and video is available by anonymous FTP. In the future, we expect this
  567.    or similar software to be available for other platforms such as NeXT
  568.    or Macintosh. One key requirement, however, is that the host machine
  569.    have IP multicast software added to its kernel. You can add it now to
  570.    SunOS 4.1.1 4.1.2, or 4.1.3; Sun includes it the standard kernel with
  571.    Solaris 2.1 (though these programs may not yet run on Solaris).
  572.    
  573.    A pre-release of the LBL audio tool "vat" is available by anonymous
  574.    FTP from ftp.ee.lbl.gov in the file vat.tar.Z. Included are a binary
  575.    suitable for use on any version of SPARCstation, and a manual entry.
  576.    Also available are dec-vat.tar.Z for the DEC 5000 and sgi-vat.tar.Z
  577.    for the SGI Indigo. The authors, Van Jacobson and Steve McCanne, say
  578.    the source will be released "soon". You may find that the vat tar file
  579.    includes a patch for the kernel file in_pcb.c. This has been
  580.    superceded by a patch that is now included in the IP multicast
  581.    software release for SunOS. These patches allow demultiplexing of
  582.    separate multicast addresses so that multiple copies of vat can be run
  583.    for different conferences at the same time.
  584.    
  585.    In addition, a beta release of both binary and source for the UMass
  586.    audio tool NEVOT, written by Henning Schulzrinne, is available by
  587.    anonymous FTP from gaia.cs.umass.edu in the pub/nevot directory (the
  588.    filename may change from version to version). NEVOT runs on the
  589.    SPARCstation and on the SGI Indigo.
  590.    
  591.    You can test vat or NEVOT point-to-point between two hosts with a
  592.    standard SunOS kernel, but to conference with multiple sites you will
  593.    need a kernel with IP multicast support added. IP multicast invokes
  594.    Ethernet multicast to reach hosts on the same subnet; to link multiple
  595.    subnets you can set up tunnels, assuming sufficient bandwidth exists.
  596.    
  597.    Once you build the SunOS kernel, you should make sure that the kernel
  598.    audio buffer size variable is patched from the standard value of 1024
  599.    to be 160 decimal to match the audio packet size for minimum delay.
  600.    The IP multicast software release includes patched versions of the
  601.    audio driver modules, but if for some reason you can't use them, you
  602.    can use adb to patch the kernel as shown below. These instructions are
  603.    for SunOS 4.1.1 and 4.1.2; change the variable name to amd_bsize for
  604.    4.1.3, or Dbri_recv_bsize for the SPARC 10:
  605.  
  606.         adb -k -w /vmunix /dev/mem
  607.         audio_79C30_bsize/W 0t160       (to patch the running kernel)
  608.         audio_79C30_bsize?W 0t160       (to patch kernel file on disk)
  609.         
  610.    If the buffer size is incorrect, there will be bad breakup when sound
  611.    from two sites gets mixed for playback.
  612.    
  613. What hardware and software is required to receive video?
  614.  
  615.    No special hardware is required to receive the slow-frame-rate video
  616.    prevalent on the MBONE because the decoding and display is done all in
  617.    software. The data rate is typically 25-150 Kb/s. To be able to send
  618.    video requires a camera and a frame grabber. Any camcorder with a
  619.    video output will do. For monitor-top mounting, the wide-angle range
  620.    is most important. There is also a small (about 2x2x5 inches)
  621.    monochrome CCD camera suitable for desktop video conference
  622.    applications available for around $200 from Stanley Howard Associates,
  623.    Thousand Oaks, CA, phone 805-492-4842. Subjectively, it seems to give
  624.    a picture somewhat less crisp than a typical camcorder, but sufficient
  625.    for 320x240 resolution software video algorithms. There are also color
  626.    and infrared (for low light, with IR LED illumination) models. The
  627.    programs listed below use the Sun VideoPix card to input video on the
  628.    SPARCstation.
  629.    
  630.    The video we used for the July 1992 IETF was the DVC (desktop video
  631.    conferencing) program from BBN, written by Paul Milazzo and Bob
  632.    Clements. This program has since become a product, called
  633.    PictureWindow. Contact picwin-sales@bbn.com for more information.
  634.    
  635.    For the November 1992 IETF and several events since then, we have used
  636.    two other programs. The first is the "nv" (network video) program from
  637.    Ron Frederick at Xerox PARC, available from parcftp.xerox.com in the
  638.    file pub/net-research/nv.tar.Z. An 8-bit visual is recommended to see
  639.    the full image resolution, but nv also implements dithering of the
  640.    image for display on 1-bit visuals (monochrome displays). Shared
  641.    memory will be used if present for reduced processor load, but display
  642.    to remote X servers is also possible. On the SPARCstation, the
  643.    VideoPix card is required to originate video. Sources are to
  644.    available, as are binary versions for the SGI Indigo and DEC 5000
  645.    platforms.
  646.    
  647.    Also available from INRIA is the IVS program written by Thierry
  648.    Turletti and Christian Huitema. It uses a more sophisticated
  649.    compression algorithm, a software implementation of the H.261
  650.    standard. It produces a lower data rate, but because of the processing
  651.    demands the frame rate is much lower and the delay higher. System
  652.    requirements: SUN SPARCstation or SGI Indigo, video grabber (VideoPix
  653.    Card for SPARCstations), video camera, X-Windows with Motif or Tk
  654.    toolkit. Binaries and sources are available for anonymous ftp from
  655.    zenon.inria.fr in the file rodeo/ivs/ivs.tar.Z or
  656.    ivs_binary_sparc.tar.Z.
  657.    
  658. How can I find out about teleconference events?
  659.  
  660.    Many of the audio and video transmissions over the MBONE are
  661.    advertised in "sd", the session directory tool developed by Van
  662.    Jacobson at LBL. Session creators specify all the address parameters
  663.    necessary to join the session, then sd multicasts the advertisement to
  664.    be picked up by anyone else running sd. The audio and video programs
  665.    can be invoked with the right parameters by clicking a button in sd.
  666.    From ftp.ee.lbl.gov, get the file sd.tar.Z or sgi-sd.tar.Z or
  667.    dec-sd.tar.Z. Schedules for IETF audio/videocasts and some other
  668.    events are announced on the IETF mailing list (send a message to
  669.    ietf-request@cnri.reston.va.us to join). Some events are also
  670.    announced on the rem-conf mailing list, along with discussions of
  671.    protocols for remote conferencing (send a message to
  672.    rem-conf-request@es.net to join).
  673.    
  674. Have there been any movements towards productizing any of this?
  675.  
  676.    The network infrastructure will require resource management mechanisms
  677.    to provide low delay service to real-time applications on any
  678.    significant scale. That will take a few years. Until that time,
  679.    product-level robustness won't be possible. However, vendors are
  680.    certainly interested in these applications, and products may be
  681.    targeted initially to LAN operation. IP multicast host extensions are
  682.    being added to some vendors' operating systems. That's one of the
  683.    first steps. Proteon has announced IP multicast support in their
  684.    routers. No network provider is offering production IP multicast
  685.    service yet.
  686.      _________________________________________________________________
  687.    
  688.     Steve Casner, casner@isi.edu (6-May-93)
  689.     
  690.    modifications and hypertext by
  691.     Henning Schulzrinne, hgs@research.att.com (10-Dec-93)
  692.     
  693.    Last modification 28-Apr-94 by
  694.     David M. Kristol, dmk@research.att.com
  695.